RStudio AI博客领域信息情报检索

欢迎来到我们的博客!在这里,您将找到关于使用与人工智能相关的技术(如TensorFlow和Keras等深度学习框架、分布式计算和自动化相关框架,如sparklyr和mlflow,以及数据摄取(pins))的最新新闻、见解和示例的信息。

torch 中的优化器

Optimizers in torch

今天,我们结束了关于 torch 基础知识的迷你系列,并为我们的工具集添加了两个抽象:损失函数和优化器。

使用 torch 模块

Using torch modules

在我们介绍 Torch 基础知识的迷你系列的第三部分中,我们用模块代替了手工编码的矩阵运算,大大简化了我们的玩具网络的代码。

介绍 torch autograd

Introducing torch autograd

使用 torch,几乎没有理由从头开始编写反向传播代码。它的自动微分功能称为 autograd,可跟踪需要计算梯度的操作以及如何计算它们。在这个由四部分组成的系列的第二篇文章中,我们更新了简单的手工编码网络以使用 autograd。

熟悉 torch 张量

Getting familiar with torch tensors

在这个由四部分组成的迷你系列的第一部分中,我们介绍了您想要了解的有关 torch 张量的主要内容。作为一个说明性示例,我们将从头开始编写一个简单的神经网络。

sparklyr 1.4:加权采样、Tidyr 动词、稳健缩放器、 RAPIDS 等

sparklyr 1.4: Weighted Sampling, Tidyr Verbs, Robust Scaler, RAPIDS, and more

Sparklyr 1.4 现已推出!此版本具有令人愉悦的新功能,例如对 Spark 数据帧的加权采样和 tidyr 动词支持、基于中位数和四分位距标准化数据的稳健缩放器、RAPIDS GPU 加速插件的 spark_connect 接口,以及许多与 dplyr 相关的改进。

请允许我自我介绍:R 版 Torch

Please allow me to introduce myself: Torch for R

今天,我们很高兴推出 torch,这是一个 R 包,可让您从 R 原生使用类似 PyTorch 的功能。无需安装 Python:torch 直接基于 libtorch 构建,libtorch 是一个 C++ 库,提供构建神经网络所必需的张量计算和自动微分功能。

深度学习天气预报简介

An introduction to weather forecasting with deep learning

几周前,我们展示了如何使用深度学习预测混沌动态系统,并通过从特定领域洞察中得出的自定义约束进行增强。全球天气是一个混沌系统,但其复杂度远高于许多通常用机器和/或深度学习解决的任务。在这篇文章中,我们提供了一个实用的介绍,介绍了一个简单的深度学习大气预报基线。虽然远非具有竞争力,但它可以说明更复杂和计算密集型的模型如何通过位于连续体“黑箱端”的方法来完成这项艰巨的任务。

来自 R 的 Deepfake 检测挑战

Deepfake detection challenge from R

几个月前,亚马逊、Facebook、微软和其他贡献者发起了一项挑战,内容是区分真实视频和人工智能生成的(“假”)视频。我们展示了如何从 R 中应对这一挑战。

用于噪声时间序列预测的 FNN-VAE

FNN-VAE for noisy time series forecasting

在这个关于使用假最近邻 (FNN) 损失进行预测的迷你系列的最后一部分中,我们用卷积 VAE 替换了上一篇文章中的 LSTM 自动编码器,从而实现了相同的预测性能,但训练时间明显缩短。此外,我们发现,当底层确定性过程被大量噪声所掩盖时,FNN 正则化会大有帮助。

来自 R 的最先进的 NLP 模型

State-of-the-art NLP models from R

如今,微软、谷歌、Facebook 和 OpenAI 正在分享自然语言处理领域的许多先进模型。然而,关于如何使用 R 中的这些模型的资料却很少。在这篇文章中,我们将展示 R 用户如何访问和受益于这些模型。

使用指数变量进行并行采样

Parallelized sampling using exponential variates

如何将看似迭代的无替换加权采样过程转化为高度可并行的过程?事实证明,一种基于指数变量的著名技术正是实现这一点的。

使用 FNN-LSTM 进行时间序列预测

Time series prediction with FNN-LSTM

在最近的一篇文章中,我们展示了如何使用由假最近邻 (FNN) 损失正则化的 LSTM 自动编码器来重建非线性混沌动态系统的吸引子。在这里,我们探讨了同样的技术如何帮助进行预测。与容量相当的“原始 LSTM”相比,FNN-LSTM 可以提高一组非常不同的真实世界数据集的性能,尤其是对于多步预测中的初始步骤。

深度吸引子:深度学习与混沌相遇的地方

Deep attractors: Where deep learning meets chaos

在非线性动力学中,当状态空间被认为是多维的,但我们所拥有的数据只是一个单变量时间序列时,人们可能会尝试通过延迟坐标嵌入重建真实空间。然而,先验地不清楚如何选择重建空间的维数和时间滞后。在这篇文章中,我们展示了如何使用自动编码器架构来解决这个问题:只需给出一系列标量的观察结果,自动编码器就会直接学习以足够的维数来表示混沌系统的吸引子。

使用 tfprobability 的简易 PixelCNN

Easy PixelCNN with tfprobability

PixelCNN 是一种深度学习架构(或架构包),旨在生成高度逼真的图像。要使用它,无需对 arXiv 论文进行逆向工程或搜索参考实现:TensorFlow Probability 及其 R 包装器 tfprobability 现在包含一个 PixelCNN 分布,可用于以可参数化的方式训练直接定义的神经网络。

破解深度学习:通过示例进行模型反转攻击

Hacking deep learning: model inversion attack by example

与其他应用程序相比,深度学习模型似乎不太可能成为隐私攻击的受害者。但是,存在确定实体是否在训练集中使用的方法(称为成员推理的对抗性攻击),并且“模型反转”下包含的技术允许仅根据模型输出(有时是上下文信息)重建原始数据输入。这篇文章展示了模型反转的端到端示例,并探讨了使用 TensorFlow Privacy 的缓解策略。

迈向隐私:使用 Syft 和 Keras 进行加密深度学习

Towards privacy: Encrypted deep learning with Syft and Keras

深度学习与隐私保护并非不可调和。联合学习支持设备上的分布式模型训练;加密使模型和梯度更新保持私密;差分隐私可防止训练数据泄露。如今,私密且安全的深度学习是一种新兴技术。在这篇文章中,我们介绍了 Syft,这是一个与 PyTorch 和 TensorFlow 集成的开源框架。在一个示例用例中,我们从 Keras 模型中获得私密预测。

首次了解使用 TensorFlow 进行联合学习

A first look at federated learning with TensorFlow

“联合学习”一词是为了描述一种分布式模型训练形式而创造的,其中数据保留在客户端设备上,即永远不会发送到协调服务器。在这篇文章中,我们介绍了核心概念,并使用 R 运行了 TensorFlow Federated 的首次实验。

介绍:RStudio AI 博客

Introducing: The RStudio AI Blog

这个博客刚刚有了新标题:RStudio AI 博客。我们解释原因。